1
Du code traditionnel aux applications génératives par IA
AI011Lesson 3
00:00

Du code traditionnel aux applications génératives par IA

Le paysage du développement logiciel est en pleine mutation fondamentale. Nous passons d'un développement rigide et basé sur des commandes à une approche flexible et pilotée par le langage naturel intelligence artificielle générative d'interaction.

1. Rompre la chaîne des commandes

Qu'est-ce que c'est : Les applications traditionnelles dépendent d'interfaces utilisateur graphiques fixes (GUI) ou de jeux de commandes spécifiques et liés au langage. Si un utilisateur s'écarte de l'entrée attendue, le système échoue.

Pourquoi cela importe : Les applications d'intelligence artificielle générative offrent une flexibilité sans précédent. Elles permettent aux utilisateurs d'interagir via le langage naturel afin d'atteindre des objectifs complexes, en s'adaptant à l'intention plutôt qu'à la seule syntaxe.

2. Le principe de non-déterminisme

Qu'est-ce que c'est : Dans le code traditionnel, $1 + 1$ vaut toujours $2$. C'est déterministe. Modèles de langage à grande échelle (LLM), en revanche, fonctionnent selon des probabilités.

Comment cela fonctionne : Ils peuvent produire des résultats différents pour la même requête exacte. Cette variété est contrôlée par des paramètres spécifiques, notamment température.

3. Éléments de base : les jetons et la température

  • Jetons : Les blocs numériques de base du texte utilisés par le modèle. Les mots sont divisés en ces unités sous-lexicales.
  • Température : Un paramètre (variant de $0.0$ à $1.0$) qui contrôle le hasard. Des valeurs faibles produisent un texte prévisible et concentré ; des valeurs élevées encouragent des sorties créatives et diversifiées.
Sécurité d'abord
N'utilisez jamais les clés d'API directement dans votre code. Utilisez toujours des variables d'environnement (par exemple, .env fichiers) pour protéger vos ressources IA contre un accès non autorisé.
app.py
TERMINALbash — 80x24
> Ready. Click "Run" to execute.
>
Question 1
Why are Large Language Models (LLMs) described as "non-deterministic"?
Because they can produce different results for the same prompt every time.
Because they always return the exact same output for a given input.
Because they cannot run on standard computer processors.
Because they require quantum computing to function.
Question 2
Which parameter should you decrease if you want the AI output to be more predictable and less creative?
Max Tokens
Top-P
Temperature
Frequency Penalty
Challenge: Building a "Study Buddy"
Apply your knowledge to a real-world scenario.
You are building a "Study Buddy" application that must provide strictly factual definitions for students preparing for exams. The application will connect to an Azure OpenAI resource.
Task 1
Identify the optimal Temperature setting for this specific task.
Solution:
Set Temperature to 0.0 or 0.1. This minimizes randomness and ensures the model provides the most likely, factual, and consistent definitions rather than creative or hallucinated responses.
Task 2
How should you secure the application's sensitive connection data?
Solution:
Move the API_KEY from the main code file into an environment variable or a hidden .env file. Use os.getenv("AZURE_OPENAI_KEY") to retrieve it securely at runtime.